吴恩达机器学习笔记(一) 单变量线性回归

损失函数

$J(\theta_0, \theta_1) = \frac{1}{2m}\sum_{i=1}^{m}(h_\theta(x^{(i)}) - y^{(i)})^2$

通过使 J 值取最小来满足需求
-> 使用梯度下降方法寻找损失函数的最小值

梯度下降

好比我们下山,每次在一点环顾四周,往最陡峭的路向下走

repeat until convergence {
        $\theta_j := \theta_j - \alpha\frac{\partial}{\partial\theta_j}J(\theta_0, \theta_1)$ $(for j=0 and  j=1)$
}

学习率 learning rate -> 控制梯度下降时跨多大的步子

0%